税收征管数字化转型中的合成数据应用
作者:
杜津宇(北京工商大学法学院)
王洪亮(国家税务总局阜新市税务局)
中共中央办公厅、国务院办公厅印发的《关于进一步深化税收征管改革的意见》明确提出,要全面推进税收征管数字化升级和智能化改造。随着人工智能在税收征管领域的深度应用,对动态税收数据集越发依赖,以形成具有预测、管理和风险监控能力的算法系统。税收征管人工智能会形成两个方面的“智慧升级”:一方面,形成具有预测和风险提示功能的嵌入式监管,涉税信息的收集将由人工智能独立完成而不需要人工申报,从技术上直接自动完成“账目、合同或票据”转换为涉税信息全过程;另一方面,形成涉税信息预测和风险评价,传统税收征管数字化以提高税收征管效率为主要目标,但税收征管人工智能还将具备对涉税信息更高质量的内容挖掘,即对涉税信息反映的企业经营状况、行业运行情况以及地区经济发展水平作出更为准确的判断。人工智能预测结果,从微观层面可以作为税务稽查的依据,从宏观层面可以作为制定区域经济政策的重要参考。以ChatGPT为代表的生成式人工智能更为“智慧”,能够以拟人化的管理方式满足税收征管高质量发展的需求。与消费领域不同,税收征管属于公共执法范畴,公众对人工智能的准确性和安全性要求较高。但既有研究尚未准确描述生成式人工智能对税收征管产生的影响,可能会使公众对税收征管人工智能的安全性认识产生较大偏差。
2022年12月,中共中央、国务院发布了《关于构建数据基础制度更好发挥数据要素作用的意见》,明确提出“数据基础制度建设事关国家发展和安全大局”,要“提高数据要素供给数量和质量”。经济合作与发展组织(OECD)发布的《税收征管3.0》,认为税收征管无须过度依赖纳税人的申报数据,税务部门可直接使用纳税人自有会计系统数据,将税收规则嵌入纳税人财务系统,通过数据、模型、算法的综合运用,实现税收征管与纳税人交易行为的实时同步和智能缴税。税收征管人工智能要将数据制度建设放在国家安全的视角下进行规范,具体而言,主要包含两种数据,即训练数据和应用数据。训练数据是人工智能形成之前训练其算法所使用的数据,应用数据是人工智能应用后经济活动的真实数据。虽然税务机关已经在制度层面推动了发票、财务的电子化改革,但这只是应用数据层面的改善,并没有对训练数据进行制度安排。《关于进一步深化税收征管改革的意见》明确提出,要实现税务机关信息“一局式”、税务人员信息“一员式”智能归集,深入推进对纳税人缴费人行为的自动分析管理,对税务人员履责的全过程自控考核考评,对税务决策信息和任务的自主分类推送。同时实现税务执法、服务、监管与大数据智能化应用深度融合、高效联动、全面升级。无论智能归集还是智能化应用深度融合都需要高质量且充分的训练数据作为人工智能在税收征管数字化转型中的核心支撑。不可否认的是,人工智能深度应用过程中,加剧了过度采集等传统数据安全问题,同时带来数据投毒、深度伪造等新型数据安全问题。税收征管人工智能与数据安全问题相互交织、不可分割,因此,有必要在加快人工智能数据安全风险研判的同时,积极加强税收征管数据安全监管与治理。
二、合成数据对税收征管人工智能的改善
(一)合成数据的概念和特征
合成数据是通过算法人为合成的、符合真实世界情况的数据,具有与真实数据相似的统计学特征。合成数据是由人工制造用于算法创建模型的数据集合,只以测试或训练为目的。目前的人工智能是以特定的应用场景为目标,向机器投喂海量的人工标注数据,并且由人工调整而形成算法。合成数据可以模拟企业的运营和生产数据,帮助训练机器学习模型,建立更为准确和安全的人工智能。合成数据的特点包括以下五点。(1)高正确性。真实世界的数据是存在错误的,而错误的数据给人工智能带来的影响具有较大的不确定性,所以适用于人工智能训练的数据必须尽可能地正确,但正确与真实并不等同。例如,税收征管中,纳税人违法进行偷逃税所产生的数据是真实的,但并非是正确的。(2)平衡性。真实世界的数据是不平衡的。例如,在实践中,个人所得税中主要数据是工资薪金所得,稿酬、特许权使用费等其他类别所得数据较少,在人工智能训练中就会形成一种错误的关联,将工资薪金所得与个人所得税直接关联起来。数据的不平衡还会对征管正确性产生影响,即数据丰富的工资薪金所得的征管正确率会比其他所得更高。(3)多样性。在人工智能训练过程中,需要应对不同的征管场景,但不同征管场景数据存在差异。例如,相较于合法的管理数据,抗税等违法行为需要税务机关的判定,无法直接通过企业的财务数据体现,且数量规模较小,甚至在某些区域或年份可能完全不存在抗税行为,自然也不存在相应数据。合成数据能够依据现有数据和法律规则“无中生有”地自动填充缺失数据并应用标签,从而实现对数据的补偿效应。(4)低成本性。合成数据的低成本性源于数据的批量生产。税收征管数字化转型过程中,纳税人遵从成本明显降低,但数据生成依然会产生一定的成本,且人工智能需要的数据量级大,成本叠加之下总成本依然较高。合成数据的来源主要依靠人工智能,生产数据越多,其单个数据成本越低。(5)高时效性。与真实数据的积累需要依靠时间不同,合成数据可以在短时间内大量生成,更符合目前人工智能快速发展的需要,避免法律或经济环境的剧烈变化对数据产生的影响。
(二)合成数据引入税收征管人工智能的必要性
税收征管人工智能应符合严格中性。与消费领域应用的人工智能不同,税收征管人工智能必须保证严格数据中性,其根源在于税收中性原则的要求。税收中性的目的是减少纳税人额外的税收负担,避免干扰市场经济的正常运行。在税收中性原则之外,税收征管人工智能的中性含义更为广泛。消费领域人工智能的决策取决于由人和机器组成的组织,其偏好可以是波动的,甚至可以单独针对某一类消费者。但税收是公民和法人单位基于宪法所进行的义务履行,其涉及的范围是相当广泛的,税收征管人工智能中性的含义在于能够更为公平地保护所涉及范围全部主体的合法权益。基于人工智能中性的要求,税收征管人工智能不能以某一类或某一地区纳税人的数据作为核心数据,应该选择更为平衡和多样的数据进行训练。真实数据在平衡性和多样性上相较于合成数据存在明显不足,合成数据更符合数据中性的要求。税收征管人工智能涉及主体最为广泛,且涉及公民和法人的根本权利,对数据中性的要求更为严格,所以有必要将合成数据引入到税收征管人工智能中,但在具体应用中,应注意以下两个问题。
第一,税收征管人工智能的训练数据应符合严格脱敏性。脱敏是将数据改造为非敏感数据以保护个人信息和商业秘密。随着居民个人信息保护意识的增强和数据价值的提升,纳税人对信息保护的要求大幅提高。数字经济背景下,税务机关为实现高效准确监管而拓宽了数据来源,不可避免地扩大了纳税人数据的收集范围,由此引发了纳税人对数据权益方面的担忧。同时,由于税收数据具有较高的实用性与延展性,正成为数据泄露的重要领域。为了改善税收征管中的数据敏感性问题,《税收征管法》第八条规定,纳税人、扣缴义务人有权要求税务机关为纳税人、扣缴义务人的情况保密,税务机关应当依法为纳税人、扣缴义务人的情况保密。但规定中税收征管人工智能能够收集的数据边界不清,保密责任也并不明确。人工智能涉及的数据更为广泛,纳税人对数据的保密要求更高,训练数据的脱敏性要求更为严格。从根本上看,数据的保密问题并不单纯是制度设计问题,同时也属于技术问题。在真实数据标记的过程中,同样可以完成脱敏的工作,但是采用真实数据脱敏标记的方法会带来高昂的成本。合成数据的引入就是脱敏技术的升级,即保证原有数据特征的基础上生成更多可用的数据。同时,由于合成数据是由人工智能生成,税务机关可以通过提高合成数据技术保证数据的脱敏质量,从而实现对纳税人涉税信息和商业秘密的保护。
第二,税收征管人工智能的数据数量应该具有最低规模要求。目前火爆的ChatGPT的算法模型在初代GPT-1发布时使用了1.17亿参数量,预训练量约5GB;在GPT-2发布时使用了15亿参数量,预训练量40GB;目前使用的GPT-3在发布时使用了1 750亿参数量,预训练量45TB。从数据量的变化上可以明显看出,数据量越大智能化水平越高。虽然人工智能也可以通过提升算力的方式改善模型的智能化程度,但数据规模依然是人工智能完善的基础性要素。生成式人工智能需要的训练数据呈指数化增长,但税收征管真实数据的累积只能以线性增长,所以税收征管真实数据的数据规模无法达到人工智能的要求。合成数据的引入能够更好地适应人工智能训练的数量要求,以较大规模的数据集训练更为完善的人工智能。鉴于技术的发展,人工智能需要的数据量规模是不断增大的,因为人工智能功能越复杂,模型训练需要的数据量越多。从税收征管角度,由于税收涉及纳税人的根本权益,人工智能需要更为严格的功能标准。数据数量是反映人工智能水平的标准之一,所以未来必然需要制定税收征管人工智能数据的最低规模要求,以保证税收征管人工智能的高质量。在税收征管真实数据无法满足要求的情况下,引入合成数据是必然选择。
(三)合成数据的引入对税收征管法律责任的重构
税收征管人工智能的法律责任界定,需要以人工智能决策和数据的可解释性为基础。传统意义上,税务机关承担税收征管责任,但人工智能的介入会导致责任认定边界不清,其中的核心争议在于自动化决策由人工智能作出,由税务机关发送,很难确定税务机关与算法产生的偏见或错误之间的因果关系。在此过程中准确区分人工智能产生偏见的来源尤为重要,即如何解释人工智能偏见产生的原因。2021年9月,我国发布的《新一代人工智能伦理规范》第十二条规定,要在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性。在传统的责任划分中,数据供给来源于纳税申报,纳税人在纳税申报中要保证数据的真实性。但是当人工智能嵌入财务数据后,由于目前法学界对人工智能的主体性存在诸多争议,所以难以按照传统的行政结构划分法律责任。部分学者提出了基于人工智能行为的可解释性推进法律责任承担问题,即解释人工智能如何在大数据的基础上进行算法决策,具体而言包括决策模型和决策数据。基于可解释性原则,人工智能训练数据与人工智能具有一体性,只有可解释性的数据才能训练出具有可解释性的人工智能。在人工智能训练过程中使用真实数据,难以区分法律责任是由税务机关承担还是由提供数据的纳税人或扣缴义务人承担,不利于税收征管人工智能应用后法律责任的判定。
生成式人工智能的出现代表着人工智能技术已经进入高级阶段,税收征管人工智能应在引入合成数据的基础上重构税收征管法律责任。人工智能在发展的过程当中必然存在不同的阶段,其能力会随着人工智能技术的发展不断提升。在人工智能的初级阶段,大部分的问题是可以解释的,法律责任比较明确。例如,计算错误等简单问题,税务机关可以通过人工校正,根据税法进行解释和修正。但随着人工智能技术的发展,算法本身的可解释性越发困难,容易形成法律解释的“黑箱”,即复杂人工智能的决策错误税务机关可能无法解释其原因。人工智能“黑箱”问题的根源并非人工智能采用了人看不到的方式“思考”,而是当前人工智能因采取了神经网络、深度学习等算法而导致数据极其复杂,所以当前人工智能科学亦致力于提高数据的可解释度。在人工智能算法的生成阶段所使用的数据正在成为人工智能合法性解释的核心问题。税收征管人工智能对数据的严格中性、严格脱敏性和最低规模要求都是基于数据的可解释性设置的。当税收征管人工智能使用的数据能够达到三者的要求,则可以说明税务机关控制下的人工智能是安全且正义的。很明显,税收征管人工智能训练中单独使用真实数据无法达到严格中性、严格脱敏性和最低规模的要求,对解释人工智能的合法性是不利的,所以合成数据的介入是人工智能环境下区分法律责任的必要条件。
合成数据引入人工智能训练阶段后,合成数据将人工智能与真实数据分离,税收征管人工智能在模型训练阶段不与纳税人直接发生关系,从而将人工智能可能产生的偏见等问题局限于税务机关本身。由于合成数据是由人工智能生成的,不存在数据来源方,所以在训练数据与人工智能一体化的背景下,人工智能的解释责任完全由税务机关承担。如果税收征管人工智能产生偏见问题,纳税人有权要求税务机关对人工智能的算法决策作出合理解释。相较而言,如果在模型训练中直接使用真实数据,那么纳税人或扣缴义务人作为数据提供方是否应该承担法律责任是不明确的。同时,在应用人工智能的过程中,合成数据的引入有助于实现跨国法律责任划分。税收征管不同于其他经济行为,是一国经济主权的重要组成部分,促使征管中必然存在大量的跨国征管行为。以欧盟为例,《欧盟通用数据保护条例》规定,使用者应具有“要求解释的权力”,其范围针对全部人工智能。同时,欧盟正在打造“信任生态系统”,通过加强监管,对人工智能的可信任性进行审查。2021年4月,欧盟委员会通过《人工智能法案》提案,对人工智能的应用按照风险等级进行了法律规范与限制。从法律上看,欧盟在人工智能领域实施强监管,我国税收征管人工智能在欧盟成员国的应用将受到较大影响。在此情况下,合成数据在税收征管人工智能的训练中体现了严格的中性化要求,容易取得欧盟监管机关的理解。虽然税收主权问题并非如此简单,但合成数据的应用有利于在跨国人工智能应用中克服法律障碍。这是因为,在人工智能训练端,合成数据的引入可以促进数据的跨地区流动,进而改善人工智能决策的可解释性和透明性,有助于区分各国税务机关之间的法律责任边界。
网络和数据均属于非传统安全领域。从技术发展史看,人工智能技术并非基于安全目的而诞生,但其似乎天然地与安全问题紧密联系在一起。税收征管人工智能涉及网络和数据安全,属于强化经济安全建设,必然涉及国家安全问题。
(一)合成数据应用于税收征管对国家经济安全的改善
当前,非合成数据训练生成的人工智能在经济安全改善中存在多种问题。首先,真实数据使用的技术障碍与成本问题。在使用真实数据训练人工智能的条件下,外部真实数据的进入依据的是纳税申报,但在实际中存在延迟申报或者不申报的情况,导致人工智能的训练数据供给不稳定,造成人工智能的逻辑能力不可控。在不使用合成数据的条件下,税务机关只能被迫在人工智能初级阶段就将其“嵌入”税收征管。但初级人工智能的各项功能尚不完善,可靠性可能低于非智能的机器人流程自动化(RPA)技术,在实际应用中反而会提高纳税人的遵从成本或者税务机关的稽查成本。其次,人工智能对经济风险的预判和应对作用难以有效发挥。传统上,税务机关在推动征管改革的过程中往往使用区域试点的方式,但人工智能的应用不适应此种情况,因为仅依靠某个区域的财务数据训练可能会造成算法歧视。同时,税务机关也可以采用以税种为核心的试点方式,但对于某个税种而言涉税数据的采集会形成制度性障碍,即税务机关只能采集与目标税种相关的财务数据,而对其他数据需要设置必要的回避机制以避免数据的过度采集。由于数据采集的不完整,税收征管人工智能难以发挥经济风险的预测功能。最后,境外财务数据的采集困难引发制度性算法歧视。在跨国交易中,由于制度障碍无法采集到境外企业或个人的数据,只能依据境内企业和个人对外支出或收入进行单方面的数据统计,对人工智能训练而言会产生与完整收支链条不同的逻辑关系,很容易产生歧视问题。反之,外国税务机关还能以此为理由,将算法歧视问题非理性泛化从而排斥我国人工智能技术。除此之外,即使在国内法律中税务机关能够取得数据权利的豁免,真实数据的隐私性和保密问题在跨国背景下也会变得更为严重,不利于国际交流和税收责任的协调。
合成数据使得人工智能具备更高的认知功能、预测功能、决策功能和集成解决方案功能。随着税收征管人工智能逐步嵌入经济社会活动,其有助于变革经济风险的治理过程,能从预测、防御、检测和响应过程中构建起一种“自适应安全架构”以再造社会风险的清晰化、智能化治理。人工智能基于数据技术可以通过扩大数据收集、提高数据处置效率、减少数据信息失真以及建立相关分析模型,更好地预测经济社会风险,并及时介入其中阻断经济社会风险的传播与恶化,遏制或减少经济社会风险带来的负面影响。鉴于经济风险在国家安全中处于基础地位,税收征管人工智能技术的发展和应用是维护和保障国家安全的重要手段之一。税收征管人工智能基于“嵌入式”条件,能够自主地对多源数据流进行多维感知和处置,辅助政府对经济非结构化数据进行收集和序列化处理,最后作出风险预测和评估,制订可行性的应对方案。合成数据下税收征管人工智能改善经济风险的优势有以下三点。(1)人的决断力与人工智能的判断力在经济风险应对中形成了有效结合。经济风险的应对难点在于时效性、准确性和可控性,人工智能的引入主要针对政策制定中精细化判断力不足的顽疾。没有合成数据,税收征管人工智能的判断力精细化程度不足,就难以发挥真正的风险管理作用。正是合成数据与人工智能的一体化,才促使税收征管人工智能具备了强大的风险判断力。(2)改变线性的风险应对模式,树立立体化治理模式。在传统的经济风险应对中,政府遵循“风险预警—风险爆发—风险应对”的线性过程,在风险应对中难以把握风险防范的机会和力度,难免存在错失窗口期或者应对风险精准度不足等问题。税收征管人工智能能够赋予风险治理精准化和网格化的路径,及时、精准地实施不同的风险应对策略。(3)集成化建设经济风险治理体系。在众多政府部门中,税务部门是涉及经济运行数据最为广泛的部门之一,其数据包含企业经营数据、农业生产数据和居民收入数据等,基本涵盖应对经济风险所需要的全部数据。税收征管人工智能能够有效地集成各地区、各部门的数据,并作出合理判断和应对。实现预防经济风险的前提条件在于人工智能技术的不断进步,合成数据是促进人工智能进化的核心要素,只有高质量的数据才能训练出风险预防性的人工智能。
(二)合成数据应用于税收征管对国家网络和数据风险的改善
如果不引入合成数据,以真实数据训练的税收征管人工智能必然带来网络风险、数据风险的提升。人工智能在扩大数据应用范围和深度的同时,也提升了代码作为“规则”的重要性,其不仅影响着每个个体的日常生活,也在一定程度上决定了社会舆论、资源分配等诸多重大公共问题。人工智能应用范围的扩大必然带来风险的提升,但此种风险并非设计者有意为之。例如,在个人所得税征管中,人工智能在采集涉税数据的同时掌握了纳税人姓名、性别、民族和家庭住址等个人隐私,加大了个人信息泄露风险,但税务机关显然没有利用个人信息获利的主观故意。人工智能在多个领域的深度应用,产生了多样的数据和网络风险,主要包括:(1)数据投毒、数据深度伪造等主动模式的数据质量安全风险;(2)数据过度采集、数据窃取等隐私信息安全风险;(3)数据权属、数据滥用等应用安全风险。以数据投毒为例,其含义是通过在训练数据集中添加污染数据(如错误样本或恶意样本),导致训练模型在决策时发生偏差,从而影响模型的有效性或可用性。此种故意行为隐蔽性极强,很难在事前发现,所以只能在法律上限制人工智能的应用范围,从而起到控制网络和数据风险的目的。欧盟的《人工智能法案》提案中最重要的内容是制定了风险分级管理制度,分为不可接受风险、高风险、有限风险和极小风险,并明确规定关键基础设施、公民教育、产品的安全组件、公民就业、公共服务、涉权型执法、出入境问题、司法和民主进程等八类人工智能属于高风险人工智能范围,训练者需要履行“向系统提供高质量的数据集,以将风险和歧视性结果降至最低”的义务。税收征管人工智能同时属于关键基础设施、公共服务和涉权型执法的范围,其高风险性不言而喻。
合成数据的引入能够适当改善税收征管人工智能的网络和数据风险。首先,相较于真实数据,合成数据在人工智能训练的初始阶段就可以规避隐私和商业秘密保护问题。合成数据属于人工智能基于真实数据生成的数据,只保留其中的统计学特征,能够实现严格的脱敏性。从推广性来看,有助于实现对人工智能的跨国应用。其次,合成数据的平衡性、数据规模和成本都体现了此类数据的高质量特点。只有高质量的数据才能降低高风险人工智能的社会风险。合成数据能够隔离真实数据与人工智能,从而形成闭环式人工智能训练环境,有效降低数据投毒、数据深度伪造等数据安全质量风险。最后,合成数据有助于实现人工智能技术风险的监控。合成数据基于人工智能技术生成,税务机关可以通过数据智能生成的监控,把握税收征管人工智能的数据参数,从而实现对税收征管人工智能的控制,明确掌握其发展阶段。只有在人工智能较为成熟时,高风险型人工智能投入税收征管才能降低社会风险。合成数据在人工智能发展中能够起到缓冲作用,避免人工智能过早地投入应用,形成网络或数据风险。总的来看,在法律解释论下,合成数据能够更好地改善技术层面的网络和数据风险,甚至可以突破国内法语境,形成国际上普遍的数据可信性与合规性。
(三)合成数据有利于税收征管可信人工智能建设
从总体国家安全观角度,经济风险属于基础性风险,网络和数据风险属于外围风险,所以人工智能的应用必然是总体风险降低的。但是要真正实现经济风险的降低需要保证人工智能的认知功能、预测功能、决策功能和集成解决方案功能是可信的,因为最终的决策者是人而非人工智能。习近平总书记强调:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”税收征管人工智能的建设是对智慧政府建设的有效回应,不成熟的人工智能在应用中会增大负外部性,最终无法体现技术带来的税收征管优势。合成数据可以从两个方面提升税收征管人工智能的可信度。一方面,合成数据的引入有助于人工智能领域法律体系的顶层设计。训练数据对人工智能的可信性具有绝对的影响力,所以人工智能法律规范和数据法律规范具有高度的契合性。但目前我国人工智能法律体系缺乏协调,例如,《数据安全法》与《个人信息保护法》未统筹规定数据处理者的安全管理模式,《数据安全法》要求建立健全全流程数据安全管理制度,《个人信息保护法》规定分类管理和技术保护制度,易引起人工智能数据安全管理的责任交叉、立法内容重复等问题。同时,在司法中存在数据保护和利用的明显冲突,如在“晟品科技案”中,晟品科技公司通过数据抓取技术,绕过了服务器系统保护措施,获取了储存在其他企业服务器中的已公开数据,最终被认定为非法获取计算机信息系统数据罪,以刑法的方式保护公开数据似乎有违处罚的本来目的。人工智能领域的法律核心问题在于数据,合成数据的核心作用在于在法律意义上将“数据使用权”从原始生产者手中分离出来,并由使用者进行再创造,使数据真正地成为一种可流动的生产要素。同时,避免通过数据权利化的强保护方式来保护相对局部的数据利益,促使数据能够更有效地流动,并建立新的、功能更多样的税收征管人工智能。另一方面,合成数据通过“再创造”对原始数据赋予了“新价值”。与物质商品不同,数据的使用不会减损它的价值,反而会获得新信息或知识,赋予新的含义。此种新价值、新含义表现在对边缘数据的创造领域,即在税收征管中并没有该数据,但通过人工智能的手段能创造出符合逻辑的数据。“大数据”一词给了我们一种假象,即数据是丰富的、足够使用的,只需要大量市场行为的积累即可得到,但事实却并非如此。作为生产要素的高质量数据是缺乏的,而实际上,合成数据技术正是由于技术人员发现了数据的稀缺性才产生的。边缘数据的丰富实际上改善了税收征管数据要素的稀缺性,避免了人工智能的非逻辑性扭曲,实现了其功能和可信性的提升。
ChatGPT应用给我们带来了对人工智能更为直观的认识,让我们对税收征管人工智能的认识更为具象化,促使税务机关重新审视税收征管人工智能的数据问题。税收征管中发展什么样的人工智能是我们要回答的问题。合成数据这种新的技术给予税务机关一种区别于权利保护视角的方案,能够真正地发掘数据作为生产要素的本质。在未来的发展中,合成数据技术同样可能会遇到新的问题,但合成数据的应用确实能够减少税收征管人工智能所面临的法律问题,那么此项技术就会成为未来人工智能领域的核心技术之一。因此,我们需要大力发展合成数据技术,培养相关人才,完善属于我们自己的合成数据人工智能,为更复杂的税收征管人工智能做好充分准备。
(本文为节选,原文刊发于《税务研究》2023年第7期。)
欢迎按以下格式引用:
杜津宇,王洪亮.税收征管数字化转型中的合成数据应用[J].税务研究,2023(7):62-69.
-END-
●税费征管质量控制:实践探索、存在问题与优化建议——基于陕西省的调查
●深化和规范“银税互动”的路径探析——基于湖北省“银税互动”开展情况的调查
●虚开增值税专用发票罪出罪原理:基于一起如实代开无罪案的分析
●全球税收治理视域下的我国企业所得税优化——以打击有害税收实践为例